端到端的深层训练模型将超过视频和图像上传统手工制作的压缩技术的性能。核心思想是学习一个非线性转换,以深度神经网络建模,将输入图像映射到潜在空间中,并与潜在分布的熵模型共同映射到潜在的空间中。解码器也被学习为可训练的深层网络,重建图像可以测量失真。这些方法强迫潜在遵循一些先前的分布。由于这些先验是通过在整个训练组中优化学习的,因此性能平均是最佳的。但是,它不能完全适合每个新实例,因此可以通过扩大位流损坏压缩性能。在本文中,我们提出了一种简单但有效的基于实例的参数化方法,以较小的成本减少此摊销差距。所提出的方法适用于任何端到端的压缩方法,将压缩比特率提高了1%,而不会对重建质量产生任何影响。
translated by 谷歌翻译